160 research outputs found

    Sur la convergence de l'estimation conditionnelle itérative

    Get PDF
    International audienceThe iterative conditional estimation (ICE) is an iterative estimation method of the parameters in the case of incomplete data. Its use asks for relatively weak hypotheses and it can be performed in relatively complex situations, as in triplet Markov models. The aim of this Note is to express a general theorem of convergence of ICE, and to show its applicability in the problem of the estimation of the proportions in a mixture of multivariate distributions.L'estimation conditionnelle itérative (ECI) est une méthode d'estimation itérative des paramètres dans le cas des données incomplètes. Sa mise en oeuvre demande des hypothèses relativement faibles et peut être effectuée dans des situations relativement complexes, comme les champs de Markov cachés à états mixtes. Proposée il y a une quinzaine d'années, l'ECI a été appliquée avec succès aux différents problèmes de segmentation bayésienne non supervisée d'images et des signaux ; cependant, aucun résultat théorique n'est venu étayer ce bon comportement. L'objet de cette note est d'énoncer un théorème général de convergence de l'ECI, et de montrer son applicabilité dans le problème de l'estimation de la proportion dans un mélange de lois multi-variée

    Markov models in image processing

    Get PDF
    The aim of this paper is to present some aspects of Markov model based statistical image processing. After a brief review of statistical processing in image segmentation, classical Markov models (fields, chains, and trees) used in image processing are developed. Bayesian methods of segmentation are then described and different general parameter estimation methods are presented. More recent models and processing techniques, such as Pairwise and Triplet Markov models, Dempster-Shafer fusion in a Markov context, and generalized mixture estimation, are then discussed. We conclude with a nonexhaustive desciption of candidate extensions to multidimensional, multisensor, and multiresolution imagery. Connections with general graphical models are also highlighted.L'objet de l'article est de présenter divers aspects des traitements statistiques des images utilisant des modèles de Markov. En choisissant pour cadre la segmentation statistique nous rappelons brièvement la nature et l'intérêt des traitements probabilistes et présentons les modèles de Markov cachés classiques : champs, chaînes, et arbres. Les méthodes bayésiennes de segmentation sont décrites, ainsi que les grandes familles des méthodes d'apprentissage. Quelques modèles ou méthodes de traitements plus récents comme les modèles de Markov Couple et Triplet, la fusion de Dempster-Shafer dans le contexte markovien, ou l'estimation des mélanges généralisés sont également présentés. Nous terminons par une liste non exhaustive des divers prolongements des méthodes et modèles vers l'imagerie multidimensionnelle, multisenseurs, multirésolution. Des liens avec les modèles graphiques généraux sont également brièvement décrits

    Lower limb locomotion activity recognition of healthy individuals using semi-Markov model and single wearable inertial sensor

    Get PDF
    International audienceLower limb locomotion activity is of great interest in the field of human activity recognition. In this work, a triplet semi-Markov model-based method is proposed to recognize the locomotion activities of healthy individuals when lower limbs move periodically. In the proposed algorithm, the gait phases (or leg phases) are introduced into the hidden states, and Gaussian mixture density is introduced to represent the complex conditioned observation density. The introduced sojourn state forms the semi-Markov structure, which naturally replicates the real transition of activity and gait during motion. Then, batch mode and on-line Expectation-Maximization (EM) algorithms are proposed, respectively, for model training and adaptive on-line recognition. The algorithm is tested on two datasets collected from wearable inertial sensors. The batch mode recognition accuracy reaches up to 95.16%, whereas the adaptive on-line recognition gradually obtains high accuracy after the time required for model updating. Experimental results show an improvement in performance compared to the other competitive algorithm

    Fusion de Dempster–Shafer dans les chaînes triplet partiellement de Markov

    Get PDF
    International audienceHidden Markov Chains (HMC), Pairwise Markov Chains (PMC), and Triplet Markov Chains (TMC), allow one to estimate a hidden process X from an observed process Y. More recently, TMC have been generalized to Triplet Partially Markov chain (TPMC), where the estimation of X from Y remains workable. Otherwise, when introducing a Dempster-Shafer mass function instead of prior Markov distribution in classical HMC, the result of its Dempster-Shafer fusion with a distribution provided Y = y, which generalizes the posterior distribution of X, is a TMC. The aim of this Note is to generalize the latter result replacing HMC with multisensor TPMC.Les Chaînes de Markov Cachées (CMC), Chaînes de Markov Couple (CMCouple), ou Chaînes de Markov Triplet (CMT), permettent d'estimer un processus caché X à partir d'un processus observé Y. Récemment, les CMT ont été généralisées aux Chaînes Triplet Partiellement de Markov (CTPM), où l'estimation de X demeure possible. Par ailleurs, lorsque dans une CMC classique la loi a priori est remplacée par une masse de Dempster-Shafer, le résultat de la fusion de cette dernière avec une loi définie par Y = y, qui généralise la loi a posteriori de X, est une CMT. L'objet de cette Note est de généraliser ce dernier résultat de CMC aux CTPM multicapteu

    Arbres de Markov Triplet et fusion de Dempster–Shafer

    Get PDF
    International audienceThe hidden Markov chains (HMC) (X,Y) have been recently generalized to triplet Markov chains (TMC), which enjoy the same capabilities of restoring a hidden process X from the observed process Y. The posterior distribution of X can be viewed, in an HMC, as a particular case of the so called "Dempster-Shafer fusion" (DS fusion) of the prior Markov with a probability q defined from the observation Y=y. As such, when we place ourselves in the Dempster-Shafer theory of evidence by replacing the probability distribution of X by a mass function M having an analogous Markov form (which gives again the classical Markov probability distribution in a particular case), the result of DS fusion of M with q generalizes the conventional posterior distribution of X. Although this result is not necessarily a Markov distribution, it has been recently shown that it is a TMC, which renders traditional restoration methods applicable. The aim of this Note is to present some generalizations of the latter result: (i) more general HMCs can be considered; (ii) q, which can possibly be a mass function Q, is itself a result of the DS fusion; and (iii) all these results are finally specified in the hidden Markov trees (HMT) context, which generalizes the HMC one.Les chaînes de Markov cachées (CMC) (X,Y) ont été récemment généralisées aux chaînes de Markov Triplet (CMT), lesquelles gardent les mêmes pouvoirs de restauration du processus caché X à partir du processus observé Y. Par ailleurs, dans une CMC (X,Y) la loi a posteriori de X, qui est de Markov, peut être vue comme une fusion de Dempster-Shafer (fusion DS) de sa loi a priori avec une probabilité q définie à partir des observations Y=y. Lorsque l'on se place dans le contexte de la théorie de l'évidence en remplaçant la loi de X par une fonction de masse M admettant une écriture markovienne similaire (une modélisation plus générale redonnant le modèle classique pour une M particulière), sa fusion DS avec q généralise la probabilité a posteriori. Bien que le résultat de cette fusion ne soit, en général, pas une chaîne de Markov, il a été établi qu'il est une CMT, ce qui autorise les divers traitements d'intérêt. L'objet de cette Note est de présenter diverses généralisations de ce dernier résultat : (i) extension aux CMC plus généraux ; (ii) q, qui peut éventuellement être une fonction de masse Q, est elle même résultat de fusion DS ; enfin, (iii) tous les résultats sont étendus aux arbres de Markov cachés (AMC), qui englobent les CMC

    Copules gaussiennes dans les chaînes triplet partiellement de Markov

    Get PDF
    International audienceHidden Markov chains, which are widely used in different data restoration problems, have recently been generalised to pairwise partially Markov chains, in which the hidden chain is no longer necessarily Markovian and the distribution of the observed chain, conditional on the hidden one, is of any form. First, we show the applicability of the models in the Gaussian case, with a particular attention to long range correlation noises. Second, we show that the use of copulas allows one to take into account any other form of marginal distributions of the observed chain, conditionally to the hidden one. We end by extending the latter model to a triplet partially Markov chain case.Les chaînes de Markov cachées, largement utilisées dans la problématique de la restauration des données, ont été récemment généralisées aux chaînes couple partiellement de Markov, dans lesquels le processus caché n'est plus nécessairement de Markov et la loi du processus observé conditionnellement au processus caché est quelconque. D'abord, nous montrons l'applicabilité pratique de ces modèles dans le cas gaussien, avec mention particulière pour les bruits à mémoire longue. Ensuite, nous montrons que l'utilisation des copules permet de prendre en compte des marginales quelconques du processus observé conditionnellement au processus caché. Nous terminons en étendant ce dernier modèle aux chaînes triplet partiellement de Marko

    Fast exact filtering in generalized conditionally observed Markov switching models with copulas

    Get PDF
    International audienceWe deal with the problem of statistical filtering in the context of Markov switching models. For X_1^N hidden continuous process, R_1^N hidden finite Markov process, and Y_1^N observed continuous one, the problem is to sequentially estimate X_1^N and R_1^N from Y_1^N. In the classical " conditional Gaussian Linear state space model " (CGLSSM), where (R_1^N, X_1^N) is a hidden Gaussian Markov chain, fast exact filtering is not workable. Recently, " conditionally Gaussian observed Markov switching model " (CGOMSM) has been proposed, in which (R_1^N, Y_1^N) is a hidden Gaussian Markov chain instead. This model allows fast exact filtering. In this paper, using copula, we extend CGOMSM to a more general one, in which (R_1^N, Y_1^N) is a hidden Markov chain (HMC) with noise of any form and the regimes are no need to be all Gaussian, while the exact filtering is still workable. Experiments are conducted to show how the exact filtering results based on CGOMSM can be improved by the use of the new model
    • …
    corecore